YouTube promet de signaler les vidéos générées et modifiées par une IA


Demain, comment reconnaîtra-t-on une vidéo créée par une intelligence artificielle (IA) ? Afin de ne pas être accusé de ne rien faire face à cette question pressante, YouTube annonce mardi 14 novembre des mesures de signalement des contenus créés par l’IA : « Nous demanderons aux créateurs de préciser quand ils ont généré, à l’aide d’outils d’intelligence artificielle, une vidéo manipulée ou synthétique mais réaliste », écrit la plate-forme vidéo, filiale de Google, dans un communiqué.

En effet, les outils d’intelligence artificielle générative − qui permettent de créer des textes, des photos et des vidéos − « peuvent produire du contenu susceptible d’être trompeur pour les utilisateurs, surtout si ceux-ci ne sont pas au courant », ajoute YouTube, qui promet de déployer ces mesures « dans les prochains mois ».

Concrètement, YouTube signalera l’utilisation de l’IA de deux manières : soit dans le panneau de description, présent sous chaque vidéo, soit par « un libellé plus visible ajouté au lecteur vidéo », si les sujets traités sont « sensibles », comme « des élections, des conflits, des crises sanitaires ou des personnalités publiques ». Les youtubeurs qui « choisiront de façon répétée de ne pas signaler » les contenus générés par l’IA pourraient s’exposer « à des retraits de vidéos, à la suspension du programme de partenariat avec la plate-forme (qui permet d’avoir davantage de visibilité et de générer de la publicité sur ses vidéos) ou à d’autres sanctions », promet la plate-forme.

Par ailleurs, si les vidéos générées par l’IA enfreignent les règles de modération en étant violentes ou diffamatoires, elles seront retirées, rappelle à toutes fins utiles l’entreprise.

Signalement de vidéos

Enfin, YouTube permettra aux internautes, personnalités ou artistes, de signaler des vidéos générées par l’IA qui « imitent un individu identifiable, son visage ou sa voix », ou encore « son chant ». Le but est ici de lutter contre les plagiats et les deepfakes (vidéos faisant croire à tort qu’une personne a tenu des propos ou fait une action). La plate-forme précise toutefois que ces demandes seront examinées et que des exceptions pourront exister pour les vidéos « de parodie ou de satire ».

Lire aussi : Article réservé à nos abonnés Quand l’intelligence artificielle crée des « deepfakes » musicaux

L’enjeu est d’autant plus important pour la filiale de Google, qu’elle a annoncé, en septembre, introduire des outils d’IA générative, permettant à ses créateurs de créer ou modifier des images de fond. Avec cette batterie d’annonces, YouTube anticipe aussi des régulations à venir : le projet de règlement européen Artificial Intelligence (AI) Act devrait intégrer l’obligation de signaler les contenus générés par une IA. Un décret récemment signé par la Maison Blanche prévoit, lui, des standards pour « authentifier et marquer » les contenus générés par l’IA. Ces techniques inspirées du chiffrement pourraient permettre de repérer les créateurs qui ne signaleraient pas des images artificielles ou manipulées. Mais ces outils de détection ne sont toutefois pas jugés infaillibles.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.